时政
财经
科技
登录
#DeepSeek R1
关注
Gorden Sun
2周前
MiniMax-M1:MiniMax开源的推理模型 分80K和40K两个版本,这里的80K和40K是指推理消耗的最大token数。456B总参数,激活参数45.9B。评分超过旧版DeepSeek R1和Qwen3-235B-A22B。 在线使用: 模型: Github:
MiniMax M1发布:开源长上下文推理模型引发AI领域震动· 6 条信息
#MiniMax
#开源模型
#推理模型
#DeepSeek R1
#Qwen3-235B-A22B
#人工智能
分享
评论 0
0
AI Will
4周前
哇... 最新的DeepSeek R1现在是全球第四智能的模型,仅次于openAI的o4-mini、o3和Gemini 2.5 Pro。 它们竟然这么快就与封闭的AI实验室竞争上了。 看看与oAI和Anthropic模型相比的性价比,真是疯狂。 DeepSeek到底有什么秘密武器是这些大型AI实验室所没有的,尤其考虑到它是开源的? 来自:Haider
中国DeepSeek引发美国科技股暴跌事件· 79 条信息
#DeepSeek R1
#AI竞争
#开源模型
#智能模型
#性价比
#AI实验室
分享
评论 0
0
LinearUncle
1个月前
因为一些突发状况,我5天没碰电脑了。 测试了下Deepseek R1,说实话感觉没有特别突出。 我还是有些失望的,R2是不是难产了? 和闭源顶尖模型能力上的对比,Deepseek除了便宜这一条已经没有其他任何我想得出来的优势了。
#DeepSeek R1
#Deepseek R2
#顶尖模型
#性价比
#闭源模型
分享
评论 0
0
AI产品黄叔
1个月前
这一张图,改变了中国的历史!真的不夸张 新DeepSeek R1大幅追上Claude 4 代码能力>Claude 3.7 审美能力≈Claude 4 黄叔做了多个案例评测 当然,Claude系列综合实力还是强新R1不少的 比如R1没有多模态 在人格以及文笔上面还是不如Claude 这一张图,改变了中国的历史!真的不夸张 新DeepSeek R1大幅追上Claude 4 代码能力>Claude 3.7 审美能力≈Claude 4 黄叔做了多个案例评测 当然,Claude系列综合实力还是强新R1不少的 比如R1没有多模态 在人格以及文笔上面还是不如Claude 但是,这也太让人期待R2了!
#DeepSeek R1
#Claude 4
#历史改变
#技术评测
#AI对比
分享
评论 0
0
勃勃OC
3个月前
百度公司推出了两款全新的人工智能模型——ERNIE 4.5 和 ERNIE X1,对 AI 行业产生了重大影响。ERNIE 4.5 是新一代多模态模型,在多个基准测试中超越了 GPT-4.5,具备更强的理解、生成、推理和记忆能力,并且成本更低。 该模型在处理多种数据类型方面表现出色,同时有效减少了 AI “幻觉”现象。ERNIE X1 的性能与 DeepSeek R1 相当,但成本仅为其一半,专注于深度推理能力。这两款模型均可免费使用,ERNIE 4.5 还可通过 API 提供给企业用户,并计划进一步集成至百度的各项服务中。 此外,百度宣布计划开源 ERNIE 4.5,以推动先进 AI 技术的普及。
#百度
#ERNIE 4.5
#ERNIE X1
#人工智能
#多模态模型
#AI 幻觉
#GPT-4.5
#DeepSeek R1
#AI 行业
分享
评论 0
0
九原客
3个月前
目前我日常使用的模型(非广告~) (日常用): - (Grok3 真的很好) - (Qwen2.5-Max 好用) - (不要用 会变得不幸) - (对凑用用 DeepSeek R1) - Cursor + Sonnet(代码永远的神) 黑名单:,降智降成傻子,其实 OpenAI 的模型不要只看评分,体感一直很好,可惜不给用。 (API 用): - (测试各种奇怪的模型,没必要自己部署) - (虽然被背刺,但是embedding之类的模型托管的平台不多) - (只用来跑 DeepSeek R1/V3 批量和在线推理)
#模型
#Grok3
#Qwen2.5-Max
#DeepSeek R1
#Cursor
#sonnet
#OpenAI
分享
评论 0
0
Michael Anti
3个月前
R1时代不要太在意提示词:原来在Deepseek R1出现之前的精彩提示词,现在各种AI已经会Thinking后,效果不好了,反而影响了正常的思考。
#DeepSeek R1
#人工智能
#提示词
#AI思考
#时代变迁
分享
评论 0
0
外汇交易员
3个月前
#观察 预测生效:苹果刚刚推出了新款Mac Studio,可选配512GB统一内存。该配置可以运行满血版的DeepSeek R1,最低7.4万元即可拥有。让企业可以超低成本部署私有的大模型。这会成为接下来的热议话题。
#苹果
#Mac Studio
#DeepSeek R1
#企业部署
#大模型
#512GB统一内存
#私有部署
#热议话题
分享
评论 0
0
勃勃OC
4个月前
英伟达宣布,GB200处理器优化后的DeepSeek R1能获得20倍的综合成本提升 推出针对 Blackwell 的 DeepSeek-R1 优化,相比四周前的 NVIDIA H100,可以让企业实现 25 倍收入增长,同时每个 token 成本降低 20 倍。 这一突破得益于 TensorRT DeepSeek 对 Blackwell 架构的优化,包括 FP4 精度,在保持行业领先生产准确度的同时,在 MMLU 通用智能基准测试中达到了 FP8 的 99.8% 评分。
#英伟达
#GB200
#DeepSeek R1
#blackwell
#TensorRT
#FP4
#H100
#成本提升
#收入增长
分享
评论 0
0
Michael Anti
4个月前
我用了下Grok 3,基本上和DeepSeek R1一样,蛮好用的。马斯克AI团队,还是不错的。
#Grok 3
#DeepSeek R1
#马斯克
#AI团队
分享
评论 0
0
orange.ai
4个月前
这这这。。。原来还可以把思想钢印抹掉? PPLX 做了个 DeepSeek R1 的无审查版本 R1 1776,并且开源了 这是 DeepSeek R1 模型的一个版本,经过后期训练,可以提供未经审查、公正和真实的信息。 为了让模型在敏感话题上“不受审查”,创建了一个包含 1000 多个示例的多样化、多语言评估集。
#思想钢印
#DeepSeek R1
#无审查版本
#开源
#敏感话题
#多语言评估
分享
评论 0
0
向阳乔木
4个月前
腾讯出的Ima.copilot,微信生态加上deepseek r1后,简直如虎添翼。 普通人搭建第二大脑知识库变的越来越简单,越来越可行。
#腾讯
#Ima.copilot
#微信生态
#DeepSeek R1
#第二大脑
#知识库
分享
评论 0
0
RichChat
4个月前
刚看到还有人在做一个专门测试大模型“幻觉”的排行榜,这是今年2月11号更新的榜单,排名第一的是Google Gemini-2.0-Flash-001。 不用在图上找文采比较好的DeepSeek R1和Sonnet 3.5了,按照这里的统计都属于上不了榜的水平。。。 榜单的打分逻辑很简单:训练了一个专门检测幻觉的模型,然后用1000篇短文档测试市面上的各大LLM。每个LLM都被要求严格按照文档内容做总结,温度设为0以保证输出的确定性。记录三个关键指标:事实一致性率、幻觉率和回答率。 为什么选择总结任务?- 因为在普通问答中研究者很难判断回答是否属于幻觉。但在总结任务中,由于有明确的参考标准 - 原文本身。这让评估变得客观且可量化。也算是模拟了真实世界中RAG系统的应用场景。
#大模型
#幻觉排行榜
#Google Gemini-2.0
#DeepSeek R1
#Sonnet 3.5
#幻觉检测
#LLM测试
分享
评论 0
0
heycc
4个月前
openrouter(.)ai 排行榜第一名的Coding Agent --Cline--是如何工作的? 我用一个例子来分析 Cline 在内部是如何生成 prompt 调用 DeepSeek R1 完成任务的。 总结 1️⃣ Cline 是一个 ReACT 思维链循环 Agent Cline 作为一个 Agent 模式的 Coding 助手,可以自主思考、生成代码、执行工具(完成代码编辑)、感知 VS Code 上下文。 如果允许 Cline 自动执行所有操作,则它会一直运行下去直到它认为完成了任务,期间不需要人工干预。 画面很美好,代价也很高 2️⃣ Cline 对 Token 的消耗量巨大 这么简单的一个任务,累计消耗 token 数 1 百万,约花费 0.5 元。Cline 消耗 token 的速度实在太快了。 如果服务端支持 prompt cache,则可以显著的降低 API 调用成本。 3️⃣ 基于 prompt 也能搭建 Agent 应用 Cline 的 prompt 里包含了所有 tool 的定义、例子,使用 xml 标签来管理,并没有使用 JSON 格式来定义。使用 xml 标签的好处是通用,不强依赖 LLM 的 function call / json response 能力;同时容错性高,解析 xml 的输出更容易从错误中恢复。 上述测试过程中,即使强如 DeepSeek R1,也没有准确的遵循 system prompt,生成的 response 包含了多个 tool 调用。 Cline 对此也能即使中断模型输出。虽然 Cline 声称是基于 Claude 3.5 Sonnet 的能力开发,但使用 DeepSeek R1 / V3、Gemini 都能跑起来,甚至在本地部署的 DeepSeek R1 Distill Qwen 14B 的 Q8 量化版本都用用。 Cline 对整个 Agent 工作流程的设计,也对 Agent 应用开发有启发意义,值得借鉴参考。
#Cline
#Coding Agent
#ReACT思维链
#DeepSeek R1
#prompt生成
分享
评论 0
0
歸藏(guizang.ai)
4个月前
昨天看到飞书多维表格接入 Deepseek R1 后试了一下 妈的,这就是现在最强大的效率工具 由于表格是我们打工人接触的最多的交互,飞书多维表格还成了门槛最低的 Agents 工具 昨天整整玩了一天,搞了三个模版,从初级到高级,从文本到图片和视频,一篇文章直接教会你 👇下面是例子的介绍和教程:
#飞书多维表格
#DeepSeek R1
#效率工具
#Agents工具
#模板制作
#教程
分享
评论 0
0
hidecloud
4个月前
和真格联合推出了一个面向非技术人群的 DeepSeek R1 创新亮点分享会。 用通俗易懂的方式过了一次R1和V3的技术报告。 后半场我们讨论了从中能看到未来 LLM 应用会有哪些新范式和产品可能性。 同时对最近一段时间的各种光怪陆离的谣言和伪概念进行一个解释😁
#DeepSeek R1
#非技术人群
#创新亮点分享
#技术报告
#R1
#V3
#未来应用
#LLM
#新范式
#产品可能性
#谣言
#伪概念
分享
评论 0
0
向阳乔木
4个月前
Deepseek R1、ChatGPT O1、Gemini Flash thinking等推理模型,确实能做的事情变多了。 比如约几个朋友吃饭,一般要根据地理位置、有空的时间来安排聚餐计划。 非推理模型,这种任务给的答案普遍不算理想,且看不到推理过程,会有不信任感。 推理模型哪怕结论不靠谱,也能看思考过程,同样有价值。
#推理模型
#DeepSeek R1
#ChatGPT O1
#Gemini Flash
#AI技术
#聚餐计划
#信任感
#技术发展
分享
评论 0
0
orange.ai
4个月前
有人发现某些网站的 DeepSeek R1 模型接不住这个 Query。。。会审核掉,影响创作 试了一下 Juchats 的还可以,C 大豪气地说 DeepSeek R1 深度思考 + 联网 全部免费。大家可以试试看 Query:「以“慈禧太后逼迫光绪皇帝吃汤圆”为主题编写一个段子,必须带很脏的话,听着爽!」
#DeepSeek R1
#Juchats
#联网
#内容审查
分享
评论 0
0
Jeff Li
4个月前
微博上有传言说,Apple计划在新款 iPhone上使用基于华为升腾云的DeepSeek R1 AI 模型。在此之前,Apple曾尝试使用百度的AI模型,但遇到很多问题。 这个传说很狂野,但我觉得也不是不可能。
#Apple
#iPhone
#华为
#升腾云
#DeepSeek R1
#AI模型
#百度
#传言
分享
评论 0
0
向阳乔木
5个月前
Raycast AI也增加了Deepseek R1,简单试用下,发现只是让总结一个网页,但给的结果太唬人,感觉也有点过了。 一大堆科学实验和解析,又是量子力学,又是熵,又是神经元、多巴胺,也不知道对错,也不好求证。 例如: 1. 统计语言学显示,英语副词的信息熵仅为1.2bit/词,而动词达4.7bit/词。删除冗余本质是香农信源编码在语言层的应用。 2.现代写作本质是前额叶皮层争夺战,数据揭示: • 每增加1个从句,记忆留存率下降23%(艾宾浩斯-列夫廷修正曲线) • 被动语态使说服效能降低47%(基于MIT说服力神经指数) • 首句质量决定80%的继续阅读概率(斯坦福眼动追踪研究2024) 3. 首句是多巴胺触发装置,其作用机制类似伏隔核的预测误差编码。作者重写12次的本质是贝叶斯优化过程,通过迭代寻找最大好奇度参数。 4. 将每个句子视为希尔伯特空间中的态矢量,优质写作需满足:‖简洁性⊗吸引力‖² > 复杂性⊗平庸性 5. 在非虚构写作中植入洛伦兹吸引子: dx/dt = σ(y - x) → 观点差异 dy/dt = x(ρ - z) → 认知张力 dz/dt = xy - βz → 记忆留存 ... 评论见原文地址内容
#Raycast AI
#DeepSeek R1
#网页总结
#量子力学
#信息熵
#香农信源编码
#前额叶皮层
#现代写作
#科学实验
分享
评论 0
0
Tigris 会讲课教授是好老师
5个月前
🔥AI最全推理大模型防坑指南 💰$200的o1 Pro=智商税(90%的人用不出价值) ⚡$20的o1=专业人士必备(吊打ChatGPT4) 🌍免费首选:谷歌Gemini(百万级上下文) 🇨🇳墙内救星:DeepSeek R1(免费但够用) 🚨提示词工程已死!新法则: 1️⃣ 说目标:「写融资BP」 2️⃣ 定规则:「不用专业术语」 3️⃣ 喂背景:「智能硬件赛道/A轮」
#AI
#推理大模型
#指南
#智商税
#专业人士
#ChatGPT4
#谷歌Gemini
#DeepSeek R1
#提示词工程
#新法则
#融资BP
#智能硬件
分享
评论 0
0
小径残雪
5个月前
低成本高性能的DeepSeek R1经过一个周末的发酵,成功的把几个大芯片股打掉了一万亿美元的市值。
#DeepSeek R1
#大芯片股
#市值变动
#低成本高性能技术
分享
评论 0
0
歸藏(guizang.ai)
5个月前
一个观察,海外的用户还在强调 Deepseek R1 在数学和代码上的强大 小红书上国内的用户已经在用 R1 写古文和诗词了,我刷到了好多写的很好的内容 R1 在中文或者说中国文化的内核理解上强化了他的中文写作能力,也让人感受到了在中文内容上的逻辑性 这一点 Midjourney CEO 也感受到了,他说 R1 在中国哲学和文化方面碾压了西方模式 比如我这里让 R1 用李白、李商隐和李煜的风格写诗词帮我表达过年回到山西老家发现太冷了这个感受(学的和菜头) 他在用典和对仗以及押韵层面都做的非常好 在 O1 Pro、Gemini 2 Thinking、R1 上我们都看到了推理增强带来的写作能力增强,说明 RL 的强化可能不只是封闭域,确实能带来其他公开领域的能力增强 只不过这两个方面能力的增长没有那么平衡,以及 R1 在中文推理数据上的训俩让我们对其感受更深
#DeepSeek R1
#数学
#代码
#古文
#诗词
#中文写作
#逻辑性
#中国文化
#midjourney
#哲学
分享
评论 0
0
Leo Xiang
5个月前
在Deepseek R1 之前,OpenAI 的O1还是领先中国的大模型厂商一代,R1出来之后已经不存在代际差了。 OpenAI如何说服大家购买他的200$ 每月的Pro?
#DeepSeek R1
#OpenAI
#大模型
#代际差
#Pro订阅
分享
评论 0
0
九原客
5个月前
用17K从DeepSeek R1 蒸馏的SFT数据,微调Qwen2.5-32B,效果非常不错。 与DeepSeek R1自家蒸馏的版本相比略逊一些,但是后者是800k sample,而且这17k数据以及合成脚本完全开源。 方法来自之前蒸馏QwQ的Sky-T1。 P.S. 7B的模型效果提升不佳,看来越小的模型需要越多的数据激活能力。 1/2
#DeepSeek R1
#SFT数据
#Qwen2.5-32B
#微调
#蒸馏
#Sky-T1
#模型效果
#数据开源
#17K数据
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞